L'algorisme del gradient estocàstic (amb acrònim anglès SGD), també conegut per gradient descendent incremental, és un mètode iteractiu per a optimitzar una funció objectiu derivable.